7 research outputs found

    Boosting quantum evolutions using Trotter-Suzuki algorithms on GPUs

    Get PDF
    The evolution calculation of quantum systems represents a great challenge nowadays. Numerical implementations typically scale exponentially with the size of the system, demanding high amounts of resources. General Purpose Graphics Processor Units (GPGPUs) enable a new range of possibilities for numerical simulations of quantum systems. In this work we implemented, optimized and compared the quantum Trotter-Suzuki algorithm running on both CPUs and GPUs.Sociedad Argentina de Informática e Investigación Operativ

    Performance Characterization of State-Of-The-Art Deep Learning Workloads on an IBM Minsky Platform

    Get PDF
    Deep learning algorithms are known to demand significant computing horsepower, in particular when it comes to training these models. The capability of developing new algorithms and improving the existing ones is in part determined by the speed at which these models can be trained and tested. One alternative to attain significant performance gains is through hardware acceleration. However, deep learning has evolved into a large variety of models, including but not limited to fully-connected, convolutional, recurrent and memory networks. Therefore, it appears difficult that a single solution can provide effective acceleration for this entire deep learning ecosystem. This work presents detailed characterization results of a set of archetypal state-of-the-art deep learning workloads on a last-generation IBM POWER8 system with NVIDIA Tesla P100 GPUs and NVLink interconnects. The goal is to identify the performance bottlenecks (i.e. the accelerable portions) to provide a thorough study that can guide the design of prospective acceleration platforms in a more effective manner. In addition, we analyze the role of the GPU (as one particular type of acceleration engine) and its effectiveness as a function of the size of the problem

    Guess the cheese flavour by the size of its holes: A cosmological test using the abundance of Popcorn voids

    Full text link
    We present a new definition of cosmic void and a publicly available code with the algorithm that implements it. Underdense regions are defined as free-form objects, called popcorn voids, made from the union of spheres of maximum volume with a given joint integrated underdensity contrast.The method is inspired by the excursion-set theory and consequently no rescaling processing is needed, the removal of overlapping voids and objects with sizes below the shot noise threshold is inherent in the algorithm. The abundance of popcorn voids in the matter field can be fitted using the excursion-set theory provided the relationship between the linear density contrast of the barrier and the threshold used in void identification is modified relative to the spherical evolution model. We also analysed the abundance of voids in biased tracer samples in redshift space. We show how the void abundance can be used to measure the geometric distortions due to the assumed fiducial cosmology, in a test similar to an Alcock-Paczy\'nski test. Using the formalism derived from previous works, we show how to correct the abundance of popcorn voids for redshift-space distortion effects. Using this treatment, in combination with the excursion-set theory, we demonstrate the feasibility of void abundance measurements as cosmological probes. We obtain unbiased estimates of the target parameters, albeit with large degeneracies in the parameter space. Therefore, we conclude that the proposed test in combination with other cosmological probes has potential to improve current cosmological parameter constraints.Comment: Updated manuscript sent to the MNRAS after referee report: 16 pages, 8 figures. Corrections were made to Fig. 4, some related conclusions were modified. The main conclusions remain unchange

    Un caso de transferencia de tecnología de HPC entre CCAD-UNC, FAMAF-UNC y Tarjeta Naranja S.A.

    Get PDF
    Luego de algunas reuniones durante el 2018 sobre “Sinergia Universidad-Industria” mediadas por Carlos Gil y Álvaro Ruiz de Mendarozqueta entre Naranja y profesionales de FAMAF-UNC y CCAD-UNC, se plantea la necesidad de trabajar conjuntamente entre la empresa y la FAMAF para abordar distintas problemáticas específicas de la empresa crediticia. El primer problema abordado se enmarca dentro del área de Computación de Alto Desempeño (HPC) a fin de optimizar un proceso en lotes que produce los resúmenes de cuenta en PDF a partir de una salida en formato PCL. El objetivo es procesar 4 millones de resúmenes en 7hs, lo que implica acelerar 3.73x sin cambiar el hardware ni el sistema operativo. Se logra a través de GNU Parallel y la nueva herramienta PDFastix bajar el tiempo a 4.7 hs. El desarrollo, luego de una etapa de adaptación interna de Naranja de aproximadamente 5 meses se encuentra actualmente en producción.Sociedad Argentina de Informática e Investigación Operativ

    Un caso de transferencia de tecnología de HPC entre CCAD-UNC, FAMAF-UNC y Tarjeta Naranja S.A.

    Get PDF
    Luego de algunas reuniones durante el 2018 sobre “Sinergia Universidad-Industria” mediadas por Carlos Gil y Álvaro Ruiz de Mendarozqueta entre Naranja y profesionales de FAMAF-UNC y CCAD-UNC, se plantea la necesidad de trabajar conjuntamente entre la empresa y la FAMAF para abordar distintas problemáticas específicas de la empresa crediticia. El primer problema abordado se enmarca dentro del área de Computación de Alto Desempeño (HPC) a fin de optimizar un proceso en lotes que produce los resúmenes de cuenta en PDF a partir de una salida en formato PCL. El objetivo es procesar 4 millones de resúmenes en 7hs, lo que implica acelerar 3.73x sin cambiar el hardware ni el sistema operativo. Se logra a través de GNU Parallel y la nueva herramienta PDFastix bajar el tiempo a 4.7 hs. El desarrollo, luego de una etapa de adaptación interna de Naranja de aproximadamente 5 meses se encuentra actualmente en producción.Sociedad Argentina de Informática e Investigación Operativ

    Un caso de transferencia de tecnología de HPC entre CCAD-UNC, FAMAF-UNC y Tarjeta Naranja S.A.

    Get PDF
    Luego de algunas reuniones durante el 2018 sobre “Sinergia Universidad-Industria” mediadas por Carlos Gil y Álvaro Ruiz de Mendarozqueta entre Naranja y profesionales de FAMAF-UNC y CCAD-UNC, se plantea la necesidad de trabajar conjuntamente entre la empresa y la FAMAF para abordar distintas problemáticas específicas de la empresa crediticia. El primer problema abordado se enmarca dentro del área de Computación de Alto Desempeño (HPC) a fin de optimizar un proceso en lotes que produce los resúmenes de cuenta en PDF a partir de una salida en formato PCL. El objetivo es procesar 4 millones de resúmenes en 7hs, lo que implica acelerar 3.73x sin cambiar el hardware ni el sistema operativo. Se logra a través de GNU Parallel y la nueva herramienta PDFastix bajar el tiempo a 4.7 hs. El desarrollo, luego de una etapa de adaptación interna de Naranja de aproximadamente 5 meses se encuentra actualmente en producción.Sociedad Argentina de Informática e Investigación Operativ
    corecore